飞行操纵器是带有附着的刚性机器人的空中无人机,属于机器人的最新和最积极开发的研究领域。这些臂的刚性性质往往缺乏遵守,灵活性和运动平滑。这项工作建议使用柔软的机器人臂连接到全向微空中飞行器(OMAV),以利用臂的柔顺和灵活的行为,同时留下可操纵和动态的,感谢全向无人机作为浮座。随机臂的统一在这种组合平台的建模和控制中造成挑战;这些挑战是通过这项工作解决的。我们基于三个建模原理提出了飞行机械手的统一模型:分段恒定曲率(PCC)和增强刚体模型(ABBM)假设用于建模软连续式机器人和传统刚体机器人借用的浮动基础方法文学。为了演示该参数化的有效性和有用性,实现了一种基于分层模型的反馈控制器。在各种动态任务的模拟中验证并评估控制器,其中检查并验证了该平台的无缺陷运动,干扰恢复和轨迹跟踪能力。软飞行机械手平台可以在空中建筑,货物交付,人力援助,维护和仓库自动化中打开新的应用领域。
translated by 谷歌翻译
神经算法推理的基石是解决算法任务的能力,尤其是以一种概括分布的方式。尽管近年来,该领域的方法学改进激增,但它们主要集中在建立专家模型上。专业模型能够学习仅执行一种算法或具有相同控制流骨干的算法的集合。相反,在这里,我们专注于构建通才神经算法学习者 - 单个图形神经网络处理器,能够学习执行各种算法,例如分类,搜索,动态编程,路径触发和几何学。我们利用CLRS基准来凭经验表明,就像在感知领域的最新成功一样,通才算法学习者可以通过“合并”知识来构建。也就是说,只要我们能够在单任务制度中学习很好地执行它们,就可以以多任务的方式有效地学习算法。在此激励的基础上,我们为CLR提供了一系列改进,对CLR的输入表示,培训制度和处理器体系结构,将平均单任务性能提高了20%以上。然后,我们进行了多任务学习者的彻底消融,以利用这些改进。我们的结果表明,一位通才学习者有效地结合了专家模型所捕获的知识。
translated by 谷歌翻译
模仿学习使用专家的演示来揭示最佳政策,并且也适用于现实世界的机器人技术任务。但是,在这种情况下,由于安全,经济和时间限制,对代理的培训是在模拟环境中进行的。后来,使用SIM到现实方法将代理应用于现实域。在本文中,我们采用模仿学习方法来解决模拟环境中的机器人技术任务,并使用转移学习将这些解决方案应用于现实世界环境。我们的任务设置在Duckietown环境中,机器人代理必须根据单个前向摄像头的输入图像遵循右车道。我们提出了三个模仿学习和两种能够完成此任务的模拟方法。在这些技术上提供了详细的比较,以突出它们的优势和缺点。
translated by 谷歌翻译
给定非负矩阵分解,$ r $和一个分解等级,$ r $,精确的非负矩阵分解(确切的NMF)将$ r $分解为两个非负矩阵的产品,$ c $和$ r $列,例如$ r = cs^\ top $。文献中的一个中心研究主题是这种分解是独特/可识别的条件,直到琐碎的歧义。在本文中,我们关注部分可识别性,即$ c $和$ s $的列的独特性。我们从化学计量学文献的基于数据的唯一性(DBU)定理开始研究。 DBU定理分析了确切NMF的所有可行解决方案,并依赖于$ C $和$ S $的稀疏条件。我们提供了最近出版的DBU定理限制版本的数学严格定理,仅依靠简单的稀疏性和代数条件:它适用于特定的确切NMF解决方案(与所有可行解决方案相对),并允许我们保证部分单列的独特性,$ c $或$ s $。其次,基于对受限制的DBU定理的几何解释,我们获得了新的局部可识别性结果。我们证明它比受限的DBU定理强,因为使用了精确的NMF进行适当的预处理。这种几何解释还导致我们在$ r = 3 $的情况下取得了另一个部分可识别性结果。第三,我们展示了如何顺序使用部分可识别性结果来确保$ c $和$ s $的更多列的可识别性。我们在几个示例中说明了这些结果,其中包括化学计量学文献的一个示例。
translated by 谷歌翻译
通过梯度下降训练的神经网络(NNS)中的线性层可以表示为一个键值存储系统,该系统存储了所有训练数据点和初始权重,并在整个培训经验中使用不差的DOT注意产生输出。虽然自1960年代以来一直在技术上都知道,但先前的工作没有有效地研究了这种形式的NN的操作,大概是由于时间和空间的复杂性和不切实际的模型大小,它们都随着训练模式的数量线性增长,这些训练模式的数量是线性的可能很大。但是,这种双重配方可以通过检查相应的注意力重量直接可视化NN如何在测试时间使用训练模式。我们对小规模监督图像分类任务进行了实验,以单任务,多任务和持续的学习设置以及语言建模,并讨论这种观点的潜力和限制,以更好地理解和解释NNS如何利用培训模式。我们的代码是公开的。
translated by 谷歌翻译
神经网络(NN)的重量矩阵(WM)是其程序。许多传统NN的程序是通过梯度下降中的某些错误函数中学到的,然后保持固定。但是,在运行时可以继续迅速修改自身的WM。原则上,这样的NN可以学习元学习,并从递归自我改善的意义上学习meta-meta-learn来学习,等等。自从90年代以来,已经提出了NN架构可能能够实施这种行为的架构,但几乎没有实践研究。在这里,我们基于快速重量程序员和密切相关的线性变压器的最新成功进行重新审视。我们提出了一个可扩展的自我参照WM(SRWM),该WM(SRWM)学会使用外部产品和Delta Update规则来修改自身。我们通过程序生成的游戏环境评估了有监督的少数学习和多任务增强学习中的SRWM。我们的实验证明了拟议的SRWM的实际适用性和竞争性能。我们的代码是公开的。
translated by 谷歌翻译
我们与最近发布的狂野基准分享我们的经验,这是一个致力于开发模型和培训策略的十个数据集的集合,这些策略对域班较强。几个实验产生了几个批判性观察,我们认为对任何未来的野外工作都是普遍的兴趣。我们的研究侧重于两个数据集:IWILDCAM和FMOW。我们展示(1)对每个评估度量进行单独的交叉验证对于两个数据集来说至关重要,(2)验证和测试性能之间的相关性可能使IWIndCAM的模型开发难以困难,(3)超级培训的次要变化困难 - 参数通过相对较大的边缘(主要是FMOW)来改善基线,(4)某些域和某些目标标签之间存在强烈的相关性(主要是IWINDCAM)之间存在强烈的相关性。据我们所知,尽管有明显的重要性,但这些数据集上没有关于这些观察结果的工作。我们的代码是公开的。
translated by 谷歌翻译